
โมเดล AI ขนาดเล็กกำลังเปลี่ยนเกม
ในปี 2025 เทรนด์ใหม่ในวงการปัญญาประดิษฐ์กำลังมาแรง จากการเปิดตัวของ DeepSeek-R1 โมเดล AI ขนาดกะทัดรัดจากจีน ที่ใช้ทรัพยากรน้อยลง แต่ให้ประสิทธิภาพเทียบเท่าโมเดลขนาดใหญ่ กลายเป็นต้นแบบใหม่ของการพัฒนา AI ที่ “เล็กแต่ทรงพลัง” โดยมีประเทศญี่ปุ่นนำแนวคิดนี้ไปปรับใช้ต่ออย่างจริงจัง
DeepSeek-R1: โมเดลเล็ก ประสิทธิภาพสูง
DeepSeek-R1 เปิดตัวต้นปี 2025 โดยสตาร์ตอัปจากจีน จุดเด่นคือการใช้พลังงานและต้นทุนต่ำกว่าคู่แข่งอย่าง GPT-4 แต่ยังให้ผลลัพธ์ที่ใกล้เคียง โดยไม่ต้องใช้ GPU หลายหมื่นตัวเหมือนโมเดลยักษ์ เช่น ชิป H100 ที่ราคาสูงถึง 1.2 ล้านบาทต่อชิ้น
เดวิด ฮา CEO ของ Sakana AI กล่าวว่า “AI ขนาดใหญ่คือสินทรัพย์ที่เสื่อมค่ารวดเร็วที่สุดในประวัติศาสตร์” เพราะเทคโนโลยี AI พัฒนาเร็วมาก จนทำให้โมเดลที่ลงทุนสูงอาจล้าสมัยในเวลาไม่นาน
ญี่ปุ่นเน้น “AI ขนาดเล็ก” เพื่ออนาคตที่ยั่งยืน
NTT ญี่ปุ่น เปิดตัวโมเดล “Tsuzumi” ซึ่งมีขนาดเพียง 600 ล้านพารามิเตอร์ แต่ให้ความแม่นยำในการประมวลผลภาษาญี่ปุ่นสูงกว่า GPT-3.5 ด้วยอัตราชนะ 81.3% ในการทดสอบอิสระ
เหตุผลหลักที่ญี่ปุ่นเลือกแนวทางนี้
-
ญี่ปุ่นนำเข้าพลังงานมากกว่า 80% ทำให้ขยายโครงสร้างพื้นฐานด้านพลังงานได้จำกัด
-
บริษัทท้องถิ่นจึงหันมาเน้นโมเดลที่เล็กลงแต่ “ตอบโจทย์เฉพาะทาง” มากขึ้น เช่น การเข้าใจภาษาท้องถิ่น
เสียงจากผู้เชี่ยวชาญ
ศ.นาโอกิ โอคาซากิ จากสถาบันเทคโนโลยีโตเกียว กล่าวว่า โมเดลที่มีขนาด 8-10 พันล้านพารามิเตอร์ถือเป็นขนาดที่เหมาะสม ใช้งานง่าย ต้นทุนต่ำ และให้ผลลัพธ์ดีพอสำหรับหลายงาน ซึ่งดีกว่าโมเดลใหญ่ที่ใช้ยากและมีค่าใช้จ่ายสูง
AI ยักษ์ยังคุ้มหรือไม่?
แม้ แซม อัลต์แมน CEO ของ OpenAI จะระบุว่าโมเดลขนาดใหญ่ยังให้ผลตอบแทนคุ้มค่าในระยะยาว แต่ในทางปฏิบัติ บริษัทหลายแห่งเริ่มตั้งคำถามกับความยั่งยืนของการลงทุนระดับแสนล้านดอลลาร์ เช่น โครงการ Stargate ของ OpenAI
แม้แต่ OpenAI เองยังไม่สามารถทำกำไรได้ในปี 2025 และมีเป้าหมายจะมีกระแสเงินสดเป็นบวกในปี 2029
สรุป: AI ยุคใหม่ เล็กลง ฉลาดขึ้น ประหยัดกว่า
-
โมเดล AI ขนาดเล็กอย่าง DeepSeek-R1 และ Tsuzumi กำลังได้รับความนิยม
-
เหมาะกับประเทศที่มีข้อจำกัดด้านพลังงานและทรัพยากร
-
เป็นทางเลือกที่ยั่งยืนและเข้ากับยุคที่ “ประสิทธิภาพ” สำคัญกว่า “ขนาด”